ИИ ± copyright. Правила и исключения


Сегодня авторы уже пишут книги с помощью искусственного интеллекта (ИИ), издатели используют возможности нейросетей для создания обложек, аудиокниг, переводов, саммари.

ИИ помогает оптимизировать многие рутинные процессы. Однако по мере совершенствования ИИ-инструментов всё чаще возникают вопросы: кому принадлежат права на произведения? Как охранять объекты, созданные ИИ? Обладает ли нейросеть правосубъектностью?

Не меньше проблем и по защите от неправомерного использования охраняемого контента в обучении ИИ, пиратства, распространения дипфейков и пр. Всё это может нанести серьёзный экономический и репутационный ущерб их создателям.

В чём основные угрозы и как их можно преодолеть? Как выявлять нарушения при использовании ИИ и кто несёт за это ответственность? Каков зарубежный и отечественный опыт? Эти и другие темы обсудили эксперты круглого стола «Защита авторских прав в условиях развития технологий: проблемы и перспективы».

ИИ ± copyright. Правила и исключения

Генеральный директор правового бюро «Омега» Геннадий УВАРКИН отметил, что практика в отношении использования ИИ постепенно складывается, прежде всего за рубежом. В России пока нет чётко сформулированных принципов, но представляется интересной политика в отношении ИИ, разработанная агентством Associated Press.

Главный базовый принцип, принятый агентством, заключается в том, что ИИ не должен подменять журналиста и автора, к нейросети надо относиться как к инструменту: с одной стороны, очень мощному, с другой — не до конца изученному. Следует избегать такого использования, которое может привести к непредвиденным результатам.

— Коллеги говорят о необходимости договариваться с разработчиками систем ИИ. Это важно, когда речь идёт о профессиональной деятельности. В личных целях можно экспериментировать в любой нейросети, но, если результаты будут обнародованы на миллионную аудиторию и монетизированы, следует избегать возможных рисков, связанных с ограничениями, которые разработчики ИИ накладывают на профессиональное использование. Общепринятого подхода нет, и следует внимательно изучать каждое соглашение, — подчеркнул эксперт.

Информация, которую мы получаем из нейросети, — это материал, подлежащий проверке и доработке, его нельзя сразу публиковать, продолжил юрист. В нём возможно нарушение прав третьих лиц. Associated Press зафиксирован принцип отказа от использования дипфейков и изменения фото- и видеоконтента.

— Это принципиальный момент для новостного агентства, но стандарт для книгоиздателя, вероятно, будет другим. Развлекательная литература не исключает дипфейков, главное, чтобы они не были направлены на совершение правонарушений. Очень важно следить за тем, такая информация «скармливается» нейросетям. Нередко в попытке получить значимый эффект мы можем загрузить в ИИ документы, содержащие персональные данные. Но необходимо помнить: то, что однажды туда поместили, выходит из-под нашего контроля раз и навсегда. Поэтому есть отраслевой стандарт: конфиденциальная информация, персональные данные, а также результаты интеллектуальной деятельности нельзя загружать ни в какие нейросети, — прокомментировал Г. Уваркин.

Есть ряд правил, сформулированных для работы редакций, они более гибкие. Как правило, в таких политиках рекомендуется использовать нейросети для поиска информации, но с требованием проверять полученный результат, для проведения экспериментов с заголовками, иллюстрациями. Это ускоряет работу, но после получения искомых сведений должен подключиться человек, который проверит это и откорректирует. Есть ряд способов использования, являющихся нежелательными или требующих дополнительного обсуждения. Это иллюстрирование и фактчекинг, который с учётом способности нейросети галлюцинировать может превратиться в свою противоположность, дополнил эксперт.

ИИ ± copyright. Правила и исключения

Тему продолжила Виктория НАГРОДСКАЯ, советник практики IP/IT правового бюро «Омега»:

— Во-первых, с нейросетями связаны вопросы нарушения прав: использование чужого контента без разрешения правообладателя, плагиат, применение свободных лицензий, которые накладывают ограничения на использование производных произведений. Есть проблема охраны личных неимущественных прав. Право на неприкосновенность произведения практически не обеспечивается. Второй вызов — тема конфиденциальности. Персональные сведения так или иначе попадают в «озеро» данных, и непонятно, как используются. Ограничения, установленные законом, не соблюдаются, требования к трансграничной обработке данных не выполняются. Есть вопросы, связанные с защитой нематериальных благ: чести, достоинства, деловой репутации. Неочевидно, к кому подавать иск, какова доказательная база.

Что касается пользовательских соглашений, то следует внимательно их изучать, считает эксперт:

— В зарубежных сервисах, как правило, указывают, что это неисключительная лицензия на весь срок действия авторского права с правом сублицензирования. Российские проекты применяют исключительные лицензии без права сублицензирования. С юридической точки зрения стоит отметить опыт Китая в части маркировки контента. Какие средства может использовать бизнес? Это цифровые отпечатки, «водяные знаки», криптография. Если говорить об американском опыте, то там принята дополнительная стандартизация. Сейчас надо шире использовать технические возможности, и у нас есть соответствующие инструменты, например РЦИС — государственная платформа, которая работает как активная система учёта с возможностью видеть объект, его создателя, всех авторов, цепочку предоставления прав.

ИИ ± copyright. Правила и исключения

С точки зрения президента Федерации интеллектуальной собственности Сергея МАТВЕЕВА, мы наблюдаем тектонический сдвиг, который кардинально изменил право, человеческие отношения и человека как сущность, обладающую интеллектом:

— Во-первых, почему эту сущность назвали искусственным интеллектом, что общего она имеет с разумом? По сути, это машинная система, определённая технология, которая, получая на входе информацию в виде изображений, звуков и текста, её анализирует, демонстрирует некое подобие творческого труда. Логичнее употреблять термин «система глубокого машинного обучения», но и это не совсем верно. Обучение — гуманитарная функция, это благо. Мы учим людей, чтобы они стали более интеллектуальными, культурными, получили массив накопленного человечеством опыта и продолжали его наращивать. Оттого что мы неправильно это назвали, возникают проблемы, к которым мы даже подступиться не можем. Разработчики, выстраивая технологию, использовали без согласия авторов и правообладателей объекты, традиционно охраняемые авторским правом. Даже если объекты перешли в общественное достояние, репутационные права остались. Попросите нейросеть сделать объект в стиле какого-то известного архитектора. Сделает, но где здесь репутационные права и имя человека? Те, кто создавал технологии, использовали эти объекты в научных, исследовательских целях. Такое разрешено в ГК РФ. Но проблема в том, что научная цель сразу превратилась в практическое использование, грань была стёрта мгновенно.

Каковы последствия? ИИ легко и качественно генерирует музыкальные произведения на основе всего загруженного контента. Они могут попадать в стриминг, а стриминговая платформа поднимает их в рейтинге. Но человек будет создавать музыкальный альбом раз в год, а ИИ — каждую неделю. Получается, что профессии композитора, переводчика, архитектора оказываются невостребованными и по совокупности около 15 млрд рублей в год, предназначенные авторам, будут потрачены на дешёвые синтетические объекты. Но самое неприятное в том, что сделаны они на использовании краденого.

Вариант решения проблемы может быть единственным: необходимо перераспределять экономический поток. Остановка творческой деятельности людей равна исчезновению культуры. Видимо, здесь возможны только компенсаторные механизмы, принудительное изъятие денег в тех местах, где они возникают необоснованно. А вот что делать с репутационными рисками, понять очень трудно. Раньше ИИ отказывался создать произведение в стиле Прилепина или Пелевина, ссылаясь на авторское право. Сейчас тоже ссылается, но говорит, что может создать нечто подобное, — и предоставляет. Поэтому есть вероятность утратить людей, имена и творчество.

ИИ ± copyright. Правила и исключения

К дискуссии присоединился управляющий партнёр юридической компании «Семёнов и Певзнер», юридический советник Национальной федерации музыкальной индустрии Роман ЛУКЬЯНОВ:

— Действительно, история с ИИ в юридической плоскости для контентных отраслей возникла неожиданно, к этому никто не готовился, поэтому ощущения в основном негативные. Я не столь радикально оцениваю утверждение о том, что наша правовая система оказалась не готовой к появлению ИИ. Правоприменители, конечно, растерянны, но ещё есть что попробовать. Однако существует несколько острых тем. В музыкальной отрасли проблема масштабируется, иногда в формате криминального контура, когда люди совмещают две технологии: с одной стороны, синтетический контент, с другой — накрутку стримов. Фактически это мошенничество, когда вы сами ничего не сделали, но забираете деньги, которые должны обращаться внутри сообщества профессионалов, вложивших в произведение свой творческий труд.

Из дискуссий на профессиональных площадках можно выделить два пункта, считает эксперт.

  1. Коллеги, создающие системы ИИ, полагают, что их обучение, в том числе охраняемым контентом, не носит криминального, противоправного характера. Вы идёте по улице, слышите музыку Моцарта из ресторана. Таким образом получаете информацию, обучаетесь. ИИ обучается примерно так же. Но обучение — это не просто гуманитарная, социальная сущность. Это термин, определённый в законодательстве, он связан с субъектом, с достижением конкретных целей: духовных, профессиональных. Какие духовно-нравственные цели может преследовать ИИ? Такая терминологическая подмена создаёт искажения. На самом деле это та сфера, в которой разрешение нужно получать, учитывая интересы авторов и правообладателей, вступать в договорные отношения, выплачивать компенсации и вознаграждения.
  2. С синтетическим контентом вопросов не возникает. Такое не должно охраняться и конкурировать за материальные ценности. Но есть пограничные ситуации, когда система ИИ используется как инструмент. Часть результата создана творческими усилиями человека, а часть — нетворческими: он запустил пару промптов и получил текст или музыку. И возникает комбинация. На сегодняшний день нет ни одной доктрины в мире, которая признавала бы субъектом систему ИИ. Но основной тренд в том, что наличие творческого элемента может быть признано охраняемым. Однако как понять, какой контент создан человеком, а какой — совместно с машиной? Эту задачу предстоит решить. Сам по себе творческий характер результата, созданного с применением систем ИИ, может определяться тем, что человек имел творческий замысел, задавал творческие промпты, так изящно их формулировал, что сама по себе эта деятельность создавала правовые предпосылки. Но недавно выяснилось, что многие современные генеративные системы оригинальный промпт не подгружают. Они его переформулируют на более понятном системе языке как комбинацию команд. Тогда возникает вопрос: как в нейросети может быть формализован творческий замысел человека? Сверхзадача — искать баланс и развивать технологии, позволяющие выделять, что создала машина и что — человек.
ИИ ± copyright. Правила и исключения

Как авторам и правообладателям защитить себя? Нужно ли издателям прописывать в договорах обязательство автора указывать, что он использовал ИИ?

Геннадий Уваркин пояснил:

— Если рассматривать вопрос с точки зрения автора, то очевидно, что его нельзя ограничивать в творческом процессе. А он может подразумевать использование различных средств, инструментов, в том числе ИИ. Но если встать на позицию издателя, то риск ложится на него, и сделать этот процесс абсолютно бесконтрольным нельзя. Было несколько примеров, когда автор писал по заказу, а при ближайшем рассмотрении оказывалось, что писал не он, а пресловутая нейросеть. Здесь, наверное, остаётся уповать на юристов, которые составят грамотный договор. Ограничивать использование ИИ — это против экономики. Оно позволяет получить результат быстрее и нередко лучше. Но его правоприменение должно быть в управляемом русле. Необходимо понимать, какие системы используются, любительская это версия или профессиональная. Если мы заказываем книгу или киносценарий, стоящий десятки миллионов рублей, лучше потратиться на профессиональную версию, чтобы не обнаружить надпись о том, что в личных целях вы можете создавать контент, а если делаете это в профессиональных, то все права принадлежат разработчикам. Чем дороже продукт, тем больше надо проявлять осмотрительность.

Следует различать фактические правоотношения, которые возникают, уверена Виктория Нагродская:

— Вы приходите к конкретному дизайнеру. Это договор авторского заказа. Другая сторона вопроса — служебные произведения. Если сотрудник организации каждый день сталкивается с созданием объектов, используя нейросеть, это должно быть записано в служебном задании и необходим закрывающий акт, в котором указывается, что произведение создано с помощью определённого сервиса. Что касается авторского заказа, то права могут передаваться в неполном объёме. Речь может идти о договоре отчуждения неисключительного права и лицензиях. Объём прав меняется в зависимости от того, платная подписка на сервисы или бесплатная. И конечно, надо рассматривать права на сублицензирование, потому что не все нейросети подразумевают эту возможность.

— В договорных отношениях можно написать всё что угодно, — полагает Сергей Матвеев. — Но проблема систем машинного обучения в том, что невозможно это проконтролировать. Гарантией может быть только честное слово. Когда ведущие новостные издатели с крупным судебным иском обратились в Европейский суд на Google, появилась директива, обязывающая производителей систем ИИ указать перечень объектов, на которых они его учили. Хорошо, они представят это и скажут: там этого не было, зачем вы пришли? Формально правовая система работает и покрывает все отношения. Но в реальности оказывается, что доказать ничего невозможно и ни один договор вас не обезопасит. Конвенции, которым сотни лет, говорят о том, что, если человек создал творческий результат, но использовал чужое творчество, это не препятствует правовой охране нового произведения. Но распространяться безнаказанно такой результат не может.

Каждый, кто делает что-то в ИИ, должен понимать: ни одна система машинного обучения не была создана без нарушения исключительных прав. Любая нейросеть — это могила неизвестного автора. Но мы можем, подразумевая, что есть некий соавтор, начать его искать и объявить в этой части произведение сиротским. И если вдруг неизвестный правообладатель, чьё произведение скормили» ИИ, найдётся и обоснует, что это его работа, н сможет претендовать на вознаграждение.

Роман Лукьянов дополнил:

— В музыкальной индустрии, если понятно, что артист при написании трека использовал «нейронку», это фиксируется в сделке, чтобы в будущем минимизировать ответственность за нарушение прав третьих лиц.

В феврале 2024 г. Президент РФ обновил Национальную стратегию использования ИИ до 2030 года. 80% населения должны будут уметь пользоваться нейросетями, вложения обозначены огромные: 850 млрд рублей. Создана межфракционная группа в Госдуме по совершенствованию законодательства. Как включиться творческим индустриям, для того чтобы их мнение было учтено, обезопасив авторский и творческий продукт?

Роман Лукьянов:

— На этот документ надо смотреть через призму другой стратегии — развития креативных индустрий. Стратегия по ИИ может легко достигнуть целевых показателей, не посягая на творчество вообще. Строго говоря, доля генеративных нейросетей не столь велика. Для того чтобы обойти острые углы в законодательстве, надо чётко зафиксировать, что обучение ИИ — это способ, предполагающий разрешение. Можно обсуждать формы выдачи этого разрешения. Спорный момент — маркировка, но в этом есть этический смысл: человек должен знать, что столкнулся с контентом, созданным машиной. Технически это реализовать не так трудно. В законе написано, что автор — это физическое лицо, машина не может быть автором. Но почему-то дискуссия продолжается. Значит, надо совершенно чётко и понятно зафиксировать, что контент, созданный только ИИ, без участия человека, ни на что претендовать не может. Не должен синтетический контент забирать долю авторов.

Геннадий Уваркин:

— Вопросы, которые мы обсуждаем, кажутся глобальными, но на самом деле это очень узкая проблема в числе тех, что вызывает внедрение ИИ. Например, ответственность за вред, причинённый упавшим с неба беспилотником. Это намного важнее, поскольку речь идёт о жизни человека. Зачем в принципе ломать копья по поводу субъектности ИИ в авторских отношениях, если её нет ни в каких других: ни в административных, ни в уголовных? Лично я не верю в закон об ИИ, и даже кодексом нельзя обойтись. Это тектонический сдвиг в законодательстве, и каждому надо заниматься своими вопросами. Сегодня нарушено уже примерно всё, контент полностью скормлен в целях обучения. С этим надо научиться жить. А есть вещи, нам подконтрольные, например отношения с контрагентами, с авторами. И надо, с одной стороны, думать о том, как использовать плюсы, которые нам даёт технология, с другой — минимизировать риски, способные свести нашу деятельность к нулю.

Сергей Матвеев:

— Правовая система под угрозой, а мы получили совершенно другую экономику, где центр прибавочной стоимости сместился. Некоторые вещи, которые делали люди после долгого профессионального обучения, теперь выполняют роботы. Проблема авторства может быть решена таким образом, что произведение не лишается охраны, если при использовании систем машинного обучения был авторский замысел. Деньги тоже восстановить можно. И сами разработчики ИИ не являются бенефициарами экономических выгод: это наука со всей непредсказуемостью. По статистике, выживает одна из 80 компаний, которые пытаются построить бизнес на нейросетях. Реальный выигрыш у производителей техники. Какую-то модель восстановления экономики и репутации мы найдём, возможность людям создавать новое творчество с ИИ дадим. А вот разрешить проблему мотивации учиться по творческим профессиям — с этим законодательство не справится.

ИИ ± copyright. Правила и исключения

КЕЙСЫ И КОММЕНТАРИИ

Эрик ВАЛЬДЕС-МАРТИНЕС, директор ассоциации УПРАВИС

С позиции Копирайт-офиса (США), созданное нейросетью изображение не подлежит никакой защите. При этом совершенно неважно, сколько запросов получила машина: это не делает объект охраняемым с точки зрения авторского права.

Доктор Стивен Талер — американский изобретатель, создатель ИИ DABUS (Device for the Autonomous Bootstrapping of Unified Sentience, «Устройство для автономной обработки единых данных»). Это обучаемая система, которая работает на основе серии искусственных нейронных сетей и может создавать изобретения самостоятельно, без участия человека. Инженер несколько лет пытается зарегистрировать творения DABUS в качестве изобретений. Но законодательство многих стран, в том числе российское, говорит о том, что автором изобретения может быть только физическое лицо. Инженер обратился в суды разных юрисдикций, но везде ему отказали.

В прошлом году в Германии патентное ведомство всё-таки зарегистрировало изобретение, созданное DABUS. В данном случае Стивен Талер указал себя в качестве автора, при этом уточнил, что изобретение сделала машина. У патентного ведомства были связаны руки, потому что проверить авторство было невозможно. В результате юристы оказались в замешательстве.

Как известно, объекты авторского и смежных прав не регистрируются, но вместе с тем регистрационные действия осуществляются с целью судебной защиты.

Интересно то, что произошло с комиксом Кристины Каштановой, которая зарегистрировала произведение в Копирайт-офисе США. Картинки для него были созданы ИИ, об этом автор заявила позднее. По её словам, ИИ только выразил то, что она хотела создать. Это стало известно Бюро по авторским правам, и регистрацию для изображений отменили, сохранив её лишь для текста.

В США зафиксировано много дел против разработчиков ИИ, в частности Open AI, когда литераторы, художники заявляют о том, что их права нарушаются. Дело в том, что сам ИИ к человеческому интеллекту имеет опосредованное отношение, это искусственная сущность. Мы используем это словосочетание для удобства, не более того, понимая, что это результат машинного обучения. Но чем похожи человек и нейросеть? Способом обучения: все мы результат того, что мы читаем, что нам рассказали в детстве, в школе. Информацию, которую мы даём ИИ, он «изучает», и, с точки зрения машины, необходимо прийти к балансу, когда ошибка минимизируется. Человек имеет право на ошибку, машина — нет. Тем не менее разница между людьми и нейросетями очевидна. Нам, чтобы осознать себя, требуется лет 20, а ИИ обучается в доли секунды. Авторы, которые обращаются с исками против Open AI, говорят о том, что сам ИИ картинку сгенерировать не может: кто-то ему дал информацию. И разработчики Open AI соглашаются: они подключили все возможные источники: литературные произведения, кино, картины, словари. ИИ всё это перерабатывает и выдаёт как будто бы своё. Авторы считают, что нейросеть использует в том числе их произведения. Но в суде это надо ещё доказать. Проблема с ИИ заключается в том, что там нет обратного инжиниринга: проследить за тем, что использовала нейросеть, на сегодняшний день невозможно.

Казалось бы, на этом можно поставить точку, но в 2023 г. китайский суд определил, что картинка, созданная ИИ, охраноспособна, и обязал ответчиков заплатить за её использование. Но на самом деле дьявол кроется в деталях. Китайский суд сделал акцент на нескольких критериях: 1) лицо, которое задавало промпт, внимательно знакомилось с условиями использования модели; 2) каждый раз внимательно оценивало результат, изменяло его и снова задавало запрос; 3) каждый раз это было зафиксировано с помощью «водяных знаков».

В России в Суде по интеллектуальным правам рассматривалось дело, когда фильм признали объектом авторского права, несмотря на то что его часть была создана ИИ. Суд обратил внимание на то, что контент, созданный ИИ, тоже нельзя использовать без разрешения, потому что это часть фильма, который является объектом авторского права.

Вопрос законодательства и этики в сфере использования ИИ очень сложен. Единственный акт, относящийся к ИИ, принят в Европе, он касается степени опасности этой сущности. Опасный ИИ должен контролироваться государством, но на самом деле такого ИИ на сегодняшний день не существует. Наличие или отсутствие той или иной информации для обработки данных, в том числе деструктивной, ничего не решает. Здесь вопрос этики: за каждым действием ИИ до сих пор стоит человек. Но рано или поздно машина может выйти из-под нашего контроля и появится сильный ИИ.

Виталий ИЛЛАРИОНОВ, заместитель генерального директора IPCodex

Исходя из буквы закона автором может признаваться только физическое лицо, творческим трудом которого создано произведение. В этом заключается сложность темы защиты прав на объекты, созданные с помощью ИИ. На первый взгляд, всё элементарно: если произведение создал не человек, объектом авторского права оно являться не может. Считается, что термин «произведение» применим к тому, что создал ИИ. Это некий аналог объекта изобразительного искусства, фотографии, музыкального трека. Но вопрос охраны очень сложный: объект есть, а субъекта нет: правосубъектность ИИ невозможна.

Судебные юристы пытаются отстаивать права реальных правообладателей и минимизировать возможность их нарушения. Некоторые занимают такую позицию, что права на эти объекты должны принадлежать оператору ИИ, т.е. тому, кто ввёл запрос. Определённая логика есть, но это лишь концепция, до тех пор пока она не возведена в ранг закона. Вопрос в том, какое это право, можно ли его назвать исключительным, составным в авторском праве. Другие полагают, что право должно принадлежать создателю ИИ. Теоретически в архивах этих программ хранятся все результаты, созданные по запросу. Таким образом, сам создатель ИИ проконтролировать этот момент сможет. Каким образом защищать это право? Вряд ли механизмы копирайта подойдут, до тех пор пока эти объекты не будут признаны результатами интеллектуальной деятельности (РИД) и не подпадут под действие IV части ГК РФ.

Тем не менее в пользу этой позиции высказываются такие доводы: поскольку крупная ИТ-компания со штатом программистов разработала это ПО и научила программу выдавать результат, он должен принадлежать им. Вопрос авторства здесь спорный, скорее это тема собственности. ВОИС выступает против того, чтобы такие объекты охранялись авторским правом. Более того, есть точка зрения, согласно которой любой результат, созданный генеративными сервисами, является плагиатом, поскольку при обучении ИИ использовался огромный пласт РИД. То, что создаёт программа, фактически является компиляцией данных, определить исходные невозможно, а если автор не указан, соответственно это плагиат.

Ещё один интересный вопрос и большая правовая проблема связаны с обучением ИИ. Наша доктрина авторского права исходит из презумпции запрета: если нет прямого разрешения, использовать произведение нельзя и отсутствие запрета не считается согласием. ГК РФ предусмотрено, что правообладатель может дать согласие на использование его РИД определёнными способами. Такой способ, как обучение ИИ, отсутствует. Но вместе с тем перечень способов использования открытый. Подразумевается, что следует получить согласие у правообладателя, чтобы загрузить его произведение в генеративный сервис для обучения и использования. Но этого не происходит, и, таким образом, само обучение уже является нарушением авторских прав. Некоторые компании пытаются получать права на огромные каталоги, с тем чтобы загружать их в свои программы, но это капля в море, с учётом того какое внимание сейчас уделяется ИИ и какие массивы больших данных в нём используются. Правомерность обучения стоит под вопросом.

С позиции ГК РФ если компиляцию рассматривать как переработку, то она должна быть создана с учётом прав автора первоначального произведения. Если этого не происходит, то данный объект нарушает права как переработчика, так и автора. В музыкальной отрасли рассматривается вопрос маркировки: если трек создан ИИ, возможно, следует это отмечать, в том числе в целях защиты прав потребителя.


Рубрика: Инновационные технологии

Год: 2025

Месяц: 4

Теги: Искусственный интеллект (ИИ) Авторское право Интеллектуальная собственность Геннадий Уваркин Виктория Нагродская Сергей Матвеев Роман Лукьянов Эрик Вальдес-Мартинес Виталий Илларионов